道路网络的图结构对于自动驾驶系统的下游任务,例如全球计划,运动预测和控制至关重要。过去,公路网络图通常由人类专家手动注释,这是耗时且劳动力密集的。为了获得更好的有效性和效率的道路网络图,需要进行自动的路网图检测方法。先前的作品要么是后处理的语义分割图,要么提出基于图的算法以直接预测道路网络图。但是,以前的作品遭受了硬编码的启发式处理算法和劣质最终性能。为了增强先前的SOTA(最新方法)方法RNGDET,我们添加了一个实例分割头,以更好地监督模型培训,并使模型能够利用骨干网络的多尺度功能。由于新提出的方法从RNGDET改进,因此命名为RNGDET ++。所有方法均在大型公开数据集上进行评估。 RNGDET ++在几乎所有度量分数上都优于基线模型。它将拓扑正确性APL(平均路径长度相似性)提高了3 \%。演示视频和补充材料可在我们的项目页面\ url {https://tonyxuqaq.github.io/projects/rngdetplusplus/}中获得。
translated by 谷歌翻译
标记级别的高清地图(HD地图)对自动驾驶汽车具有重要意义,尤其是在大规模,外观改变的情况下,自动驾驶汽车依靠标记来定位和车道来安全驾驶。在本文中,我们提出了一个高度可行的框架,用于使用简单的传感器设置(一个或多个单眼摄像机)自动构建标记级别的高清图。我们优化标记角的位置,以适合标记分割的结果,并同时优化相应摄像机的反视角映射(IPM)矩阵,以获得从前视图图像到鸟类视图(BEV)的准确转换。在定量评估中,构建的高清图几乎达到了百厘厘米级的准确性。优化的IPM矩阵的准确性与手动校准相似。该方法还可以概括以通过增加可识别标记的类型来从更广泛的意义上构建高清图。
translated by 谷歌翻译
随着自动驾驶汽车的快速发展,目击者对高清地图(HD地图)的需求蓬勃发展,这些地图(HD地图)在自主驾驶场景中提供了可靠且强大的静态环境信息。作为高清图中的主要高级元素之一,道路车道中心线对于下游任务(例如预测和计划)至关重要。人类注释器手动注释车道中心线高清图是劳动密集型,昂贵且效率低下的,严重限制了自动驾驶系统的广泛应用和快速部署。以前的工作很少探索中心线高清图映射问题,这是由于拓扑复杂和道路中心线的严重重叠问题。在本文中,我们提出了一种名为CenterLinedet的新方法,以自动创建Lane Centrine HD地图。通过模仿学习对CenterLinedet进行训练,并可以通过使用车辆安装的传感器进行迭代有效地检测到车道中心线的图。由于应用了类似DITR的变压器网络,CenterLinedet可以处理复杂的图形拓扑,例如车道相交。在大型公开数据集Nuscenes上评估了所提出的方法,并通过比较结果很好地证明了CenterLinedet的优势。本文附有一个演示视频和一个补充文档,可在\ url {https://tonyxuqaq.github.io/projects/centerlinedet/}中获得。
translated by 谷歌翻译
Decias的推荐模型最近引起了学术和行业社区的越来越多的关注。现有模型主要基于反向倾向得分(IPS)的技术。但是,在建议域中,鉴于观察到的用户项目暴露数据的稀疏性质和嘈杂性,IP很难估算。为了缓解这个问题,在本文中,我们假设用户偏好可以由少量潜在因素主导,并建议通过增加曝光密度来集群用户以计算更准确的IPS。基本上,这种方法与应用统计的分层模型的精神相似。但是,与以前的启发式分层策略不同,我们通过向用户呈现低级嵌入的用户来学习群集标准,这是建议模型中的用户表示未来。最后,我们发现我们的模型与前两种类型的Debias推荐模型有牢固的联系。我们基于实际数据集进行了广泛的实验,以证明该方法的有效性。
translated by 谷歌翻译
道路网络图为自动驾驶应用程序提供关键信息,例如可用于运动计划算法的可驱动区域。为了找到道路网络图,手动注释通常效率低下且劳动密集型。自动检测道路网络图可以减轻此问题,但现有作品仍然存在一些局限性。例如,基于细分的方法无法确保令人满意的拓扑正确性,并且基于图的方法无法提供足够精确的检测结果。为了解决这些问题的解决方案,我们在本文中提出了一种基于变压器和模仿学习的新方法。鉴于当今世界各地可以轻松访问高分辨率航空图像,我们在方法中使用航空图像。作为输入的空中图像,我们的方法迭代生成道路网络图逐vertex。我们的方法可以处理复杂的交叉点,以及各种事件的道路细分。我们在公开可用的数据集上评估我们的方法。通过比较实验证明了我们方法的优势。我们的作品附有一个演示视频,可在\ url {https://tonyxuqaq.github.io/projects/rngdet/}中获得。
translated by 谷歌翻译
高清(HD)地图可以为自动驾驶提供静态交通环境的精确几何和语义信息。道路边界是高清地图中包含的最重要的信息之一,因为它区分道路地区和越野地区,可以引导车辆在道路区域内驾驶。但它是劳动密集型的,以向城市规模提供高清地图的道路边界。为了启用自动高清映射注释,当前工作使用语义分割或迭代图,用于道路边界检测。然而,前者无法确保拓扑正确性,因为它在像素级别工作,而后者遭受效率低下和漂流问题。为了提供上述问题的解决方案,在这封信中,我们提出了一个新的系统被称为CSBoundary,以便在城市规模上自动检测高清地图注释的道路边界。我们的网络将作为输入空中图像补丁的输入,并直接从此图像中递送连续的道路边界图(即顶点和边缘)。要生成城市规模的道路边界图,我们将从所有图像修补程序缝制所获得的图形。我们的CSBoundary在公共基准数据集中进行了评估并进行了比较。结果表明了我们的优越感。伴随的演示视频可在我们的项目页面\ url {https:/sites.google.com/view/csbound/}处获得。
translated by 谷歌翻译
随着垂直起飞和着陆和长航时的特点,倾转旋翼吸引了相当多的关注近几十年来其在民用和科研应用潜力。然而,强耦合,非线性特性和不匹配的干扰的问题,不可避免地存在于倾转旋翼机,它带来的过渡模式控制器的设计极大的挑战。在本文中,我们结合一个超扭曲扩张状态观测器(STESO)具有自适应递归滑模控制(ARSMC)一起使用STESO-ARSMC(SAC)来设计以过渡模式倾转旋翼飞行器姿态系统控制器。首先,六个自由度的倾转旋翼的(DOF)的非线性数学模型被建立。其次,美国和干扰是由STES观察者估计。第三,ARSM控制器旨在实现有限时间内收敛。 Lyapunov函数用来作证的倾转旋翼无人机系统的融合。新的方面是,状态的评估被并入控制规则来调整中断。相较于先前技术,控制系统,这项工作可以大大提高抗干扰性能提出。最后,模拟试验,是要证明建议的技术的有效性。
translated by 谷歌翻译
在本文中,提出了显式线性模型预测控制(MPC)的分离和结合晶格分段仿射(PWA)。训练数据是在感兴趣的领域均匀生成的,由状态样本和相应的仿射控制定律组成,基于晶格PWA近似值。还提出了对数据的重新采样,以确保晶格PWA近似与包含样品点作为内部点的唯一顺序(UO)区域相同。另外,在轻度假设下,两个晶格PWA的等效性确保了感兴趣域中的近似值无错误。提出了针对显式线性MPC的无统计误差近似的算法,并分析了整个过程的复杂性,这是相对于样品数量的多项式。通过两个仿真示例测试了所提出的近似策略的性能,结果表明,有了适量的样品点,我们可以构造与显式线性MPC的最佳控制法相等的晶格PWA近似值。
translated by 谷歌翻译
由于现代硬件的计算能力强烈增加,在大规模数据集上学习的预训练的深度学习模型(例如,BERT,GPT-3)已经显示了它们对传统方法的有效性。巨大进展主要促进了变压器及其变体架构的代表能力。在本文中,我们研究了低级计算机视觉任务(例如,去噪,超级分辨率和派没),并开发了一个新的预先训练的模型,即图像处理变压器(IPT)。为了最大限度地挖掘变压器的能力,我们展示了利用众所周知的想象网基准,以产生大量损坏的图像对。 IPT模型在具有多头和多尾的这些图像上培训。此外,引入了对比度学习,以适应不同的图像处理任务。因此,在微调后,预先训练的模型可以有效地在所需的任务上使用。只有一个预先训练的模型,IPT优于当前的最先进方法对各种低级基准。代码可在https://github.com/huawei-noah/pretrate -ipt和https://gitee.com/mindspore/mindspore/tree/master/model_zoo/research/cv/ipt
translated by 谷歌翻译
Monocular depth estimation has been actively studied in fields such as robot vision, autonomous driving, and 3D scene understanding. Given a sequence of color images, unsupervised learning methods based on the framework of Structure-From-Motion (SfM) simultaneously predict depth and camera relative pose. However, dynamically moving objects in the scene violate the static world assumption, resulting in inaccurate depths of dynamic objects. In this work, we propose a new method to address such dynamic object movements through monocular 3D object detection. Specifically, we first detect 3D objects in the images and build the per-pixel correspondence of the dynamic pixels with the detected object pose while leaving the static pixels corresponding to the rigid background to be modeled with camera motion. In this way, the depth of every pixel can be learned via a meaningful geometry model. Besides, objects are detected as cuboids with absolute scale, which is used to eliminate the scale ambiguity problem inherent in monocular vision. Experiments on the KITTI depth dataset show that our method achieves State-of-The-Art performance for depth estimation. Furthermore, joint training of depth, camera motion and object pose also improves monocular 3D object detection performance. To the best of our knowledge, this is the first work that allows a monocular 3D object detection network to be fine-tuned in a self-supervised manner.
translated by 谷歌翻译